• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 " 워크벤치"에 대한 통합 검색 내용이 122개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
레노버, 기업에 맞춤형 생성형 AI 제공하는 하이브리드 AI 솔루션 공개
레노버가 엔비디아와 협력해 모든 기업 및 클라우드에 맞춤형 생성형 AI 애플리케이션을 제공하는 신규 하이브리드 AI 솔루션을 발표했다.  양사의 엔지니어링 협력을 통해 이번 하이브리드 AI 솔루션은 포켓에서 클라우드에 이르는 고객 데이터에 AI를 효과적으로 활용할 수 있도록 만들어졌다. 개발자들은 엔비디아 AI 엔터프라이즈 소프트웨어 실행에 최적화된 레노버 하이브리드 AI 솔루션을 통해 엔비디아 NIM 및 네모 리트리버(NeMo Retriever)와 같은 마이크로 서비스에 액세스할 수 있게 된다. 레노버는 대규모 AI 워크로드를 효율적으로 처리하기 위해 확장된 레노버 씽크시스템 AI 포트폴리오를 새롭게 공개했다. 이 포트폴리오는 두 개의 엔비디아 8방향 GPU 시스템을 탑재하고 있으며, AI 구현을 가속하기 위한 전력 효율성 및 거대 컴퓨팅 능력을 갖추고 있다. 생성형 AI, 자연어 처리(NLP) 및 대규모 언어 모델(LLM) 개발을 위해 설계됐으며, 엔비디아 HGX AI 슈퍼컴퓨팅 플랫폼에는 엔비디아 H100, H200 텐서 코어 GPU, 신규 엔비디아 그레이스 블랙웰 GB200 슈퍼칩, 엔비디아 퀀텀-X800 인피니밴드 및 스펙트럼-X800 이더넷 네트워킹 플랫폼이 포함되어 있다. 레노버 씽크시스템 AI 서버는 엔비디아 B200 텐서 코어 GPU를 탑재해 생성형 AI의 새로운 막을 열었다. 엔비디아 블랙웰 아키텍처는 생성형 AI 엔진, 엔비디아 NV링크(NVLink) 인터커넥트 및 향상된 보안 기능을 갖추고 있는 점이 특징이다. 또한, B200 GPU는 최대 25배 더 빠른 실시간 추론 성능으로 1조 매개변수를 갖춘 언어 모델을 지원한다. 이는 AI, 데이터 분석 및 HPC 워크로드에 최적 설계됐다.     신규 레노버 씽크시스템 SR780a V3 서버는 1.1대의 전력효율지수(PUE)를 갖춘 5U 시스템으로, 설치 공간을 절약할 수 있는 점이 특징이다. 한편, CPU와 GPU에는 레노버 넵튠 다이렉트 수냉식 기술과 엔비디아 NV스위치(NVSwitch) 기술이 사용되어 발열 문제없이 최대 성능을 유지할 수 있다. 레노버 씽크시스템 SR680a V3 서버는 듀얼 소켓 공랭 시스템으로, 엔비디아 GPU와 인텔 프로세서를 탑재하여 AI를 최대 활용할 수 있도록 설계됐다. 이 시스템은 업계 표준 19인치 서버 랙 타입으로써 과도한 공간을 차지하거나 선반을 필요로 하지 않는 고밀도 하드웨어로 구성되어 있다. 한편, 레노버 PG8A0N 서버는 엔비디아 GB200 그레이스 블랙웰 슈퍼칩을 탑재한 AI용 1U 서버이자 가속기용 개방형 수냉식 기술을 갖췄다. GB200은 45배 더 빠른 실시간 LLM 추론 성능과 더불어 40배 더 낮은 총소유비용(TCO), 40배 더 적은 에너지로 구동된다. 레노버는 엔비디아와의 긴밀한 협업을 통해 AI 트레이닝, 데이터 처리, 엔지니어링 설계 및 시뮬레이션을 위한 GB200 랙 시스템을 제공할 예정이다. 고객들은 레노버가 지닌 엔비디아 인증 시스템 포트폴리오를 통해 ‘엔비디아 AI 엔터프라이즈’를 사용할 수 있게 된다. 이는 프로덕션급 AI 애플리케이션 개발 및 배포를 위한 엔드 투 엔드 클라우드 네이티브 소프트웨어 플랫폼이다. 또한, 엔비디아 AI 엔터프라이즈에 포함된 엔비디아 NIM 추론 마이크로 서비스를 레노버 엔터프라이즈 인프라에서 실행함으로써, 고성능 AI 모델 추론을 할 수 있다. 또한, 레노버는 워크스테이션에서 클라우드에 이르기까지 엔비디아 OVX와 엔비디아 옴니버스 설계, 엔지니어링 및 구동을 지원하고 있다고 소개했다. 기업들이 맞춤형 AI, HPC 및 옴니버스 애플리케이션을 신속하게 구축할 수 있도록 레노버는 엔비디아 MGX 모듈형 레퍼런스 디자인을 통해 신속하게 모델을 구축하고 있다. 이로써 맞춤형 모델을 제공받은 CSP 업체들은 가속화된 컴퓨팅을 통해 AI 및 옴니버스 워크로드를 대규모 처리할 수 있게 된다. 엔비디아 H200 GPU를 기반으로 한 해당 시스템은 테라바이트급의 데이터를 처리하는 AI 및 고성능 컴퓨팅 애플리케이션을 통해 과학자와 연구자들이 직면한 문제를 해결할 수 있도록 돕는다. 이외에도 레노버는 엔비디아와 협력을 통해 대규모 AI 트레이닝, 미세 조정, 추론 및 그래픽 집약적 워크로드 처리를 위한 최대 4개의 RTX 6000 에이다 제너레이션(RTX 6000 Ada Generation) GPU를 제공하여 데이터 사이언스 워크스테이션을 강화했다. 이는 자동화된 워크플로를 통해 AI 개발자의 생산성을 향상시킨다. 엔비디아 AI 워크벤치(AI Workbench)를 갖춘 신규 레노버 워크스테이션은 소프트웨어 툴을 통해 추론, 대규모 시뮬레이션, 까다로운 워크플로를 위한 강력한 AI 솔루션을 개발 및 배포할 수 있도록 돕는다. 엔비디아 AI 워크벤치는 모든 개발자로 하여금 생성형 AI 및 머신 러닝 개발을 지원하는 솔루션이다. 레노버 씽크스테이션과 씽크패드 워크스테이션에서 이용 가능한 신규 엔비디아 A800 GPU는 AI용으로 특별히 설계되어, 모든 종류의 AI 워크플로를 활용하는 조직들을 위해 안전하고 프라이빗한 데이터 사이언스 및 생성형 AI 지원 환경을 제공한다. 레노버 인프라스트럭처 솔루션 그룹(ISG)의 커크 스카우젠 사장은 “레노버와 엔비디아는 전 세계 비즈니스를 위한 증강 지능(Augmented Intelligence)의 경계를 허물고 있다. 생성형 AI를 지원하는 최첨단 하이브리드 AI 솔루션 포트폴리오를 통해 데이터가 있는 어느 곳이든 AI 컴퓨팅을 활용할 수 있게 됐다”면서, “우리는 실시간 컴퓨팅, 전력 효율성, 배포 용이성 개선을 기반으로 새로운 AI 활용 사례가 시장에 나올 수 있는 변곡점에 놓여있다. 레노버는 엔비디아와 파트너십을 통해 효율성, 성능, 비용 측면에서 획기적인 발전을 이루어 모든 산업 군에서 AI 애플리케이션 활용을 가속화할 것이다. 또한, 리테일 경험 향상, 도시 재편, 스마트 제조 지원 등 기업들이 대규모 데이터셋의 인사이트를 즉시 활용할 수 있도록 도울 것”이라고 말했다. 엔비디아의 밥 피트(Bob Pette) 엔터프라이즈 플랫폼 부문 부사장은 “AI는 기업들이 데이터를 통해 새로운 인사이트를 얻고 생산성을 향상시킬 수 있는 강력한 힘”이라며, “엔비디아 기술과 통합된 레노버의 새로운 엔터프라이즈 AI 솔루션은 AI를 위한 컴퓨팅 성능을 강화하는 데 있어 중추적인 이정표일 뿐만 아니라, 기업들이 생성형 AI를 활용할 수 있도록 신뢰도 있는 하이브리드 시스템을 제공한다”고 말했다.
작성일 : 2024-03-19
엔비디아, “RTX AI PC와 워크스테이션 통해 전용 AI 기능과 고성능 제공”
엔비디아가 RTX AI PC와 워크스테이션 사용자를 위한 하드웨어, 소프트웨어, 도구, 가속화 등을 계속해서 선보일 예정이라고 밝혔다. 엔비디아는 2018년 RTX 기술과 AI용으로 제작된 소비자 GPU인 지포스 RTX(GeForce RTX)를 출시하면서 AI 컴퓨팅으로의 전환을 가속화했다. 이후 RTX PC와 워크스테이션상의 AI는 1억 명 이상의 사용자와 500개 이상의 AI 애플리케이션을 갖춘 생태계로 성장했다. 생성형 AI는 PC에서 클라우드에 이르기까지 새로운 차원의 기능을 선보이고 있다. 또한 엔비디아는 축적된 AI 경험과 전문성으로 모든 사용자가 다양한 AI 기능을 처리하는 데 필요한 성능을 갖출 수 있도록 지원한다는 계획이다. AI 시스템은 데이터 내부의 경험이나 패턴을 학습한 다음 새로운 입력이나 데이터가 공급되면 스스로 결론을 조정할 수 있다는 장점을 가지고 있다. AI 시스템은 이러한 자가 학습을 통해 이미지 인식, 음성 인식, 언어 번역, 의료 진단, 자동차 내비게이션, 이미지와 영상 품질 향상 등 수백 가지의 다양한 작업을 수행할 수 있다. AI 진화의 다음 단계는 생성형 AI(generative AI)라고 하는 콘텐츠 생성이다. 이를 통해 사용자는 텍스트, 이미지, 사운드, 애니메이션, 3D 모델 또는 기타 유형의 데이터를 포함한 다양한 입력을 기반으로 새로운 콘텐츠를 빠르게 제작하고 반복할 수 있다. 그런 다음 동일하거나 새로운 형식의 콘텐츠를 생성한다.     AI PC는 AI를 더 빠르게 실행할 수 있도록 설계된 전용 하드웨어가 장착된 컴퓨터이다. 점점 더 많은 유형의 AI 애플리케이션이 클라우드가 아닌 디바이스에서 특정 AI 작업을 수행할 수 있는 PC를 필요로 하게 될 것이다. AI PC에서 실행하면 인터넷 연결 없이도 항상 컴퓨팅을 사용할 수 있고 시스템의 짧은 지연 시간으로 응답성도 높아진다. 아울러 사용자가 AI 활용을 위해 민감한 자료를 온라인 데이터베이스에 업로드할 필요가 없어 개인정보 보호가 강화된다는 이점도 있다. 3D 이미지가 로드될 때까지 가만히 앉아 기다리는 대신 AI 디노이저를 통해 이미지가 즉각적으로 업데이트되는 것을 볼 수 있다. RTX GPU에서는 이러한 전문 AI 가속기를 ‘텐서 코어(Tensor Core)’라고 한다. 텐서 코어는 업무와 게임 플레이에 사용되는 까다로운 애플리케이션에서 AI의 성능을 가속화한다. 현 세대의 지포스 RTX GPU는 대략 200 AI TOPS(초당 조 단위 연산)부터 1300 TOPS 이상까지 다양한 성능 옵션을 제공하며, 노트북과 데스크톱에 걸쳐 다양한 옵션을 지원한다. GPU가 없는 현 세대의 AI PC 성능은 10~45TOPS이다. 전문가들은 엔비디아 RTX 6000 에이다 제너레이션(RTX 6000 Ada Generation) GPU를 통해 더욱 높은 AI 성능을 얻을 수 있다. 엔비디아는 고성능의 RTX GPU와 함께 AI 업스케일링부터 개선된 화상 회의, 지능적이고 개인화된 챗봇에 이르기까지 모든 유형의 사용자에게 도움이 되는 도구를 제공한다고 소개했다. RTX 비디오는 AI를 사용해 스트리밍 영상을 업스케일링하고 HDR(하이 다이내믹 레인지)로 표시한다. SDR(표준 다이내믹 레인지)의 저해상도 영상을 최대 4K 고해상도 HDR로 생생하게 재현한다. RTX 사용자는 크롬 또는 엣지 브라우저에서 스트리밍되는 거의 모든 영상에서 한 번의 클릭으로 이 기능을 이용할 수 있다. RTX 사용자를 위한 무료 앱인 엔비디아 브로드캐스트(Broadcast)는 간단한 사용자 인터페이스(UI)를 통해 화상 회의, 라이브 스트리밍 개선 등 다양한 AI 기능을 제공한다. 노이즈와 에코 제거 기능으로 키보드 소리, 진공 청소기 소리, 아이들의 큰 목소리 등 원치 않는 배경 소리를 제거하고, 가상 배경을 사용해 더 나은 엣지 감지로 배경을 대체하거나 흐리게 처리할 수 있다. 챗 위드 RTX(Chat With RTX)는 사용하기 쉽고 무료로 다운로드가 가능한 로컬 맞춤형 AI 챗봇 데모이다. 사용자는 파일을 하나의 폴더에 끌어다 놓고 챗 위드 RTX에서 해당 위치를 가리키기만 하면 PC의 로컬 파일을 지원되는 대규모 언어 모델(LLM)에 쉽게 연결할 수 있다. 이를 활용하면 쿼리를 통해 상황에 맞는 답변을 빠르게 얻을 수 있다.  AI는 크리에이터들의 지루한 작업을 줄이거나 자동화해 순수 창작을 위한 시간을 제공하며 창의적인 잠재력을 실현하도록 돕는다. 이러한 기능은 엔비디아 RTX 또는 지포스 RTX GPU가 탑재된 PC에서 빠르게 혹은 단독으로 실행된다. 어도비 프리미어 프로의 AI 기반 음성 향상 도구는 불필요한 노이즈를 제거하고 대화 품질을 개선한다. 어도비 프리미어 프로(Adobe Premiere Pro)의 음성 향상 도구는 RTX로 가속화된다. 이는 AI를 사용해 불필요한 노이즈를 제거하고 대화 클립의 품질을 개선해 전문적으로 녹음된 것 같은 사운드를 구현한다. 또 다른 프리미어 기능으로는 자동 리프레임이 있다. 자동 리프레임은 GPU 가속화를 통해 영상에서 가장 관련성 높은 요소를 식별하거나 추적해 다양한 화면 비율에 맞게 영상 콘텐츠를 지능적으로 재구성한다. 영상 편집자의 시간을 절약해 주는 또 하나의 AI 기능으로 다빈치 리졸브(DaVinci Resolve)의 매직 마스크(Magic Mask)가 있다. 편집자가 한 장면에서 피사체의 색조와 밝기를 조정하거나 원치 않는 부분을 제거해야 하는 작업에서 매직 마스크를 활용하면 피사체 위에 선을 긋기만 해도 AI가 잠시 동안 처리한 후 선택 영역을 표시한다.  한편, AI는 확장 가능한 환경, 하드웨어와 소프트웨어 최적화, 새로운 API를 통해 개발자가 소프트웨어 애플리케이션을 구축하는 방식을 개선하고 있다. 엔비디아 AI 워크벤치(AI Workbench)는 개발자가 PC급 성능과 메모리 설치 공간을 사용해 사전 훈련된 생성형 AI 모델과 LLM을 빠르게 생성, 테스트, 맞춤화할 수 있도록 지원한다. 이는 RTX PC에서 로컬로 실행하는 것부터 거의 모든 데이터센터, 퍼블릭 클라우드 또는 엔비디아 DGX 클라우드(DGX Cloud)까지 확장할 수 있는 간편한 통합 툴킷이다. 개발자는 PC에서 사용할 AI 모델을 구축한 후 엔비디아 텐서RT를 사용해 모델을 최적화할 수 있다. 텐서RT는 RTX GPU에서 텐서 코어를 최대한 활용할 수 있도록 도와주는 소프트웨어이다. 윈도우용 텐서RT-LLM을 통해 텍스트 기반 애플리케이션에서 텐서RT 가속화를 사용할 수 있다. 이 오픈 소스 라이브러리는 LLM 성능을 향상시키고 구글 젬마 ,메타(Meta) 라마2(Llama 2), 미스트랄(Mistral), 마이크로소프트(Microsoft) Phi-2 등 인기 모델에 대해 사전 최적화된 체크포인트를 포함한다. 또한 개발자는 오픈AI(OpenAI) 채팅 API용 텐서RT-LLM 래퍼에도 액세스할 수 있다. 컨티뉴(continue.dev)는 LLM을 활용하는 비주얼 스튜디오 코드(VS Code)와 제트 브레인(JetBrains)용 오픈 소스 자동 조종 장치이다. 컨티뉴는 단 한 줄의 코드 변경만으로 RTX PC에서 로컬로 텐서RT-LLM을 사용해 로컬에서 빠르게 LLM 추론할 수 있는 도구이다.
작성일 : 2024-03-08
전열 해석 자동화 프로그램 BeHAP의 소개 및 사용법
버스바의 최적 설계 프로세스 단축하기   파워서플라이나 전기차 배터리와 같은 고전력 장치에 사용되는 버스바(BusBar)는 최적 설계 도출을 위해 다수의 전열 해석이 동반되어 수많은 워크플로를 진행해야 한다. 태성에스엔이가 자체 개발한 전열 해석 자동화 프로그램인 BeHAP을 이용하면 단일 환경에서 전열 해석을 한 번에 진행 가능하다. 이번 호에서는 버스바 전열 해석 자동화 프로그램에 대한 소개와 사용 방법을 설명하고자 한다.   ■ 김재원 태성에스엔이 구조 2팀 매니저로 구조해석 및 자동화 프로그램에 대한 기술 지원을 담당하고 있다. 이메일 | jwkim21@tsne.co.kr 홈페이지 | www.tsne.co.kr   파워 서플라이나 전기차 배터리와 같은 고전력이 필요한 장치에 많이 사용되는 버스바는 전선과 동일한 기능을 가지면서 형상적으로 단단하고 정밀한 제작이 가능하기 때문에, 보다 효율적인 공간 활용이 가능하다.  그에 따라 형상 최적 설계에 대한 연구가 많이 진행되고 있으나 최적 설계 도출을 위해서 다수의 전열 해석을 수행해야 하기 때문에, 수많은 워크플로 생성으로 인해 업무 효율성이 떨어지는 어려움이 있다. 태성에스엔이에서 제작한 버스바 전열 해석 자동화 프로그램인 BeHAP을 사용하면 다수의 전열 해석이 필요 없이 단일 환경에서 다양한 전열 해석 수행이 가능하다.    BeHAP 소개 전열 해석은 전기 해석과 발열 해석의 연성 해석이 필요하기 때문에, 다양한 환경에서 해석이 진행된다.(그림 1)   (a) 해석 시스템 생성   (b) 물성 추가   (c) 형상 수정   (d) 격자 생성 및 경계 조건 부여   (e) 결과 확인 그림 1. 앤시스 환경에서의 전열 해석 프로세스   <그림 1>과 같이 앤시스의 전열 해석 프로세스는 워크벤치(그림 1-a~b), SCDM(그림 1-c), 메커니컬(그림 1-d~e) 환경을 거쳐 전/후처리를 진행하기 때문에, 워크플로가 매우 복잡해진다. 이러한 경우 BeHAP을 사용하여 이러한 문제를 해결할 수 있다. BeHAP은 <그림 2>와 같이 하나의 환경에서 전/후처리를 한 번에 수행할 수 있다. 또한, 해석 워크플로의 단순화로 해석 숙련도가 낮은 설계 엔지니어도 쉽게 사용할 수 있다는 장점이 있다.   (a) 모델 불러오기   (b) 물성 추가 및 적용   (c) 경계 조건 부여   (d) 결과 확인 그림 2. BeHAP에서의 전열 해석 프로세스     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2023-12-04
엔비디아, “델·HPE·레노버 서버에 AI용 이더넷 네트워킹 기술 통합”
엔비디아가 AI용 엔비디아 스펙트럼-X(NVIDIA Spectrum-X) 이더넷 네트워킹 기술이 델 테크놀로지스, 휴렛팩커드 엔터프라이즈, 레노버의 서버 라인업에 통합된다고 밝혔다. 엔비디아 AI 스택을 탑재한 델 테크놀로지스, HPE, 레노버의 새로운 시스템은 2024년 1분기에 출시될 예정이다. 스펙트럼-X는 생성형 AI를 위해 설계된 것이 특징으로 기존 이더넷 제품보다 1.6배 높은 AI 통신 네트워킹 성능을 구현하며, 기업이 생성형 AI 워크로드를 가속화할 수 있도록 지원한다. 3곳의 시스템 제조업체에서 선보이는 서버 시스템은 스펙트럼-X와 엔비디아 텐서 코어 GPU, 엔비디아 AI 엔터프라이즈 소프트웨어, 엔비디아 AI 워크벤치 소프트웨어를 결합했다. 이로써 기업들에게 생성형 AI로 비즈니스를 혁신할 수 있는 빌딩 블록을 제공한다. 스펙트럼-X는 네트워크 집약적인 대규모 병렬 컴퓨팅을 위해 설계된 엔비디아 블루필드-3 슈퍼NIC(BlueField-3 SuperNIC) 가속 소프트웨어를 결합했다. 엔비디아 블루필드-3 슈퍼NIC는 초당 51Tb/s의 AI용 이더넷 스위치인 스펙트럼-4의 성능을 통해 하이퍼스케일 AI 워크로드를 강화하는 새로운 등급의 네트워크 가속기이다. 이로써 스펙트럼-X는 AI 워크로드의 효율성을 높이며, 엔비디아의 인프라 컴퓨팅 플랫폼인 블루필드-3 DPU를 보완한다. 스펙트럼-X는 차세대 AI 시스템을 위한 레퍼런스 아키텍처인 엔비디아 이스라엘-1(Israel-1) 슈퍼컴퓨터를 지원한다. 이스라엘-1은 델 테크놀로지스와 협력한 것으로, 엔비디아 HGX H100 8-GPU 플랫폼 기반의 델 파워엣지(PowerEdge) XE9680 서버와 스펙트럼-4 스위치 기반의 블루필드-3 DPU와 슈퍼NIC를 사용한다.     엔비디아의 젠슨 황(Jensen Huang) CEO는 “기업이 워크로드를 처리하기 위해 데이터센터를 업그레이드하면서 생성형 AI와 가속 컴퓨팅이 세대 간 전환을 주도하고 있다. 가속 네트워킹은 엔비디아의 선도적인 서버 제조업체 파트너사들이 생성형 AI 시대로 신속하게 전환할 수 있도록 새로운 시스템 파동을 일으키는 촉매제가 될 것”이라고 말했다. 델 테크놀로지스의 마이클 델(Michael Dell) CEO는 “가속 컴퓨팅과 네트워킹은 대규모 언어 모델(LLM)과 생성형 AI 애플리케이션의 요구 사항을 충족시키는 시스템 구축에 핵심적인 역할을 한다. 델 테크놀로지스와 엔비디아의 협력을 통해 고객에게 데이터에서 인텔리전스를 빠르고 안전하게 추출하는 데 필요한 인프라와 소프트웨어를 제공하고 있다”고 말했다. HPE의 안토니오 네리(Antonio Neri) CEO는 “여러 산업에서 혁신을 주도할 생성형 AI는 다양하고 동적인 워크로드를 지원하기 위해 근본적으로 다른 아키텍처를 필요로 한다. 고객이 생성형 AI의 잠재력을 최대한 실현할 수 있도록 HPE는 엔비디아와 협력해 애플리케이션을 지원하는 데 필요한 성능, 효율성, 확장성을 갖춘 시스템을 구축하고 있다”고 말했다. 레노버의 양 위안칭(Yuanqing Yang) CEO는 “생성형 AI는 전례 없는 혁신을 실현할 수 있지만 기업 인프라에 대한 요구 사항도 전례 없이 높아졌다. 레노버는 엔비디아와 긴밀히 협력해 최신 AI 애플리케이션을 구동하는 데 필요한 네트워킹, 컴퓨팅, 소프트웨어를 갖춘 효율적이고 가속화된 시스템을 구축하고 있다”고 말했다.
작성일 : 2023-11-22
엔비디아, 새로운 RTX 워크스테이션 발표
엔비디아가 글로벌 제조업체와 함께 강력한 새로운 엔비디아 RTX 워크스테이션을 발표했다. 이 강력한 RTX 워크스테이션은 생성형 AI와 디지털화 시대에서 개발과 콘텐츠 제작을 위해 설계됐다. 이 시스템은 BOXX, 델 테크놀로지스(Dell Technologies), HP, 레노버(Lenovo)에 탑재되며, 엔비디아 RTX 6000 에이다 제너레이션 GPU(NVIDIA RTX 6000 Ada Generation GPU)를 기반으로 한다. 이로써 엔비디아 AI 엔터프라이즈(AI Enterprise)와 엔비디아 옴니버스 엔터프라이즈(Omniverse Enterprise) 소프트웨어를 통합한다. 이외에도 엔비디아는 전 세계 전문가들에게 최신 AI, 그래픽, 실시간 렌더링 기술을 제공하기 위해 엔비디아 RTX 5000, RTX 4500, RTX 4000의 새로운 데스크톱 워크스테이션용 에이다 세대 GPU 3종도 출시했다.  엔비디아의 프로페셔녈 비주얼라이제이션(professional visualization) 부문 부사장인 밥 피트(Bob Pette)는 “컴퓨팅에 풀스택 접근이 필요한 생성형 AI와 디지털화된 애플리케이션만큼 까다로운 워크로드는 거의 없다. 전문가들은 최신 엔비디아 기반 RTX 워크스테이션을 통해 데스크톱에서 이러한 문제를 해결할 수 있으며, 새로운 생성형 AI의 시대에 방대한 디지털화된 세계를 구축할 수 있다”고 말했다. 새로운 RTX 워크스테이션은 각각 48GB 메모리가 장착된 최대 4개의 엔비디아 RTX 6000 에이다 GPU를 제공하며, 단일 데스크톱 워크스테이션은 최대 5,828 테라플롭스(TFLOPS)의 AI 성능과 192GB의 GPU 메모리를 제공한다. 사용자의 필요에 따라 엔비디아 AI 엔터프라이즈 또는 옴니버스 엔터프라이즈로 시스템을 구성해 까다로운 생성형 AI와 그래픽 집약적 워크로드를 광범위하게 지원할 수 있다. 엔비디아 AI 엔터프라이즈 4.0에는 엔터프라이즈 AI 사용 사례 구축을 위한 프레임워크, 사전 훈련된 모델과 툴이 포함된다. 여기에는 생성형 AI를 위해 기초 모델을 구축하고 맞춤화하기 위한 엔드 투 엔드 프레임워크인 엔비디아 네모(NeMo)와 데이터 사이언스용 엔비디아 래피즈(RAPIDS) 라이브러리, 추천, 가상 어시스턴트, 사이버보안 솔루션 등이 있다. 옴니버스 엔터프라이즈는 산업 디지털화를 위한 플랫폼으로, 여러 팀이 상호 운용이 가능한 3D 워크플로우와 오픈USD 애플리케이션을 개발할 수 있도록 지원한다. 오픈USD 네이티브 플랫폼인 옴니버스는 전 세계로 분산된 팀이 수백 개의 3D 애플리케이션에서 디자인 충실도가 높은 데이터 세트로 협업할 수 있다. 유르트(Yurts)의 CTO인 제이슨 슈니처(Jason Schnitzer)는 “고객의 다양한 폼팩터, 배포 모델, 예산에 맞춰 풀스택 생성형 AI 솔루션을 제공한다. 우리는 다양한 자연어 처리 작업에 LLM을 활용하고 RTX 6000 에이다를 통합해 이를 달성했다. 프라이빗 데이터센터부터 책상 아래에 놓을 수 있는 워크스테이션 크기의 솔루션에 이르기까지, 유르트는 엔비디아와 함께 플랫폼과 제품을 확장하기 위해 최선을 다하고 있다”고 말했다.  워크스테이션 사용자는 곧 얼리 액세스로 제공되는 새로운 엔비디아 AI 워크벤치(Workbench)를 활용할 수 있다. 이는 개발자에게 몇 번의 클릭만으로 생성형 AI 모델을 생성, 미세 조정, 실행할 수 있도록 쉬운 통합 툴키트를 제공한다. 어떤 기술 수준을 가진 사용자일지라도 PC 또는 워크스테이션에서 사전 학습된 생성형 AI 모델을 빠르게 생성, 테스트, 커스터마이징한 다음 데이터센터, 퍼블릭 클라우드 또는 엔비디아 DGX 클라우드로 확장할 수 있다.
작성일 : 2023-08-09
L-PBF 방식 적층공정 해석 보상 모델로 열 변형 해결하기
앤시스 워크벤치를 활용한 해석 성공 사례   금속 적층제조 공정은 금속 파우더를 용융시켜 적층하는 방식으로, 공정 특성상 열 변형이 동반된다. 이러한 열 변형은 출력 결과물의 구조적 신뢰성에 큰 영향을 미치므로, 제품의 치수 정밀도를 높이기 위해 반드시 해결해야 한다. 열 변형 해결을 위한 대표적인 방법은 앤시스 애디티브(Ansys Additive)를 이용하여 보상 모델을 활용하는 것이다. 보상 모델은 설계 모델과 실제 생산된 제품 간의 치수 차이를 해결하기 위한 방법이다. 적층공정 중 발생하는 제품 변형을 예측하여 이에 대한 보상 모델을 생성하면, 보상 모델이 사전 예측된 변형 거동을 따라 변형됨으로써 원하는 치수 정밀도를 충족하게 해준다. 이번 호에서는 워크벤치 애디티브(Workbench Additive)를 활용하여 L-PBF 방식의 보상 모델 생성 방법에 초점을 맞추어 다뤄보고자 한다.   ■ 김선명 | 태성에스엔이 적층제조센터 DfAM팀의 매니저로, 적층제조 특화 설계를 담당하고 있다. 이메일 | smkim23@tsne.co.kr 홈페이지 | www.tsne.co.kr   적층 공정에서의 보상 모델 적층제조 공정에서 발생하는 제품의 열 변형은 설계 치수와 실제 제품 간에 치수 차이를 발생시키는 원인이다. 치수에 오차가 발생함에 따라 구조 및 성능에 대한 문제가 발생할 뿐 아니라, 후가공에서도 문제가 발생할 수 있다. 따라서 적층제조 공정에서 치수 정밀도와 성능을 유지하기 위해 열 변형을 고려한 제품 설계가 필요하다. L-PBF 적층제조 공정에서 열 변형이 발생하는 원인은 고출력 레이저를 사용하여 금속 분말을 용융시키기 때문이다. 이렇게 제작되는 부품은 제조공정 중에 고온의 에너지를 지속적으로 받게 되고, 제조공정이 끝나도 열응력이 남아있는 등 열 변형에 대한 문제점이 존재한다. <그림 1>은 제조공정 중 발생하는 열이 충분히 배출되지 못해 발생한 열 변형의 대표적인 예이다.   그림 1. 원본 지오메트리 : (a) 설계 모델, (b) 시뮬레이션 결과, (c) 제작 모델   이러한 열 변형에 의한 수축/팽창으로 유발되는 제품 변형을 방지하기 위해 보상 모델의 적용이 필요한 것이다. 그러나 열 변형 거동을 고려한 보상 모델 설계를 직접 수행하기에는 어려움이 있으므로 시뮬레이션을 사용하여 보상 모델을 생성한다. 앞서 언급한 보상 모델이란, 적층제조 공정 중 발생하는 제품 변형을 사전 시뮬레이션을 통해 예측한 후, 열 변형 발생 시 원본 설계와 동일한 형상이 도출되게끔 모델링을 변경하는 방법이다. 먼저 <그림 2>와 같이 열 변형으로 인한 팽창이 일어날 것으로 예측되는 영역에 대해 형상을 변경시킴으로써 보상 모델이 생성된다. 이 보상 모델에 대한 적층공정 시뮬레이션을 수행한 결과, 동일 구간에서 열 변형으로 인한 팽창이 발생하며 원래 설계대로 제품 형상이 완성됨을 확인할 수 있다.   그림 2. 보상(compensated) 지오메트리 : (a) 설계 모델, (b) 시뮬레이션 결과, (c) 제작 모델   L-PBF 공정 시뮬레이션의 보상 모델 생성 방법 이 글에서는 <그림 3>과 같은 형상의 Ti-6Al-4V 재질의 더블 아치형 모델을 이용하여 L-PBF 적층공정 시뮬레이션을 진행하고 보상 모델을 생성하고자 하며, 과정은 다음과 같다. 먼저 보상 모델 생성에 앞서 첫 번째로 모델의 L-PBF 시뮬레이션을 수행한다. 다음으로 Inherent Strain 해석을 기반으로 L-PBF 시뮬레이션 진행 후 결과를 검토하며 보상 모델의 생성 기준을 정의하고, Distortion Compensation 기능을 활용하여 보상 모델 생성을 위해 <그림 4>에서 나타낸 순서대로 워크플로를 진행하여야 한다. 마지막으로 생성된 보상 모델의 L-PBF 시뮬레이션 결과를 검토하여 실제 출력물의 결과가 어떻게 나올지 분석하여야 한다.   그림 3. L-PBF 시뮬레이션을 위한 모델   그림 4. 보상 모델 생성의 워크플로   ■ 기사의 상세 내용은 PDF로 제공됩니다.
작성일 : 2023-08-02
앤시스 그란타 셀렉터를 이용한 최적 재료 선정 프로세스
앤시스 워크벤치를 활용한 해석 성공사례   우리는 종종 초기 제품 설계 단계에서 ‘더 가벼운 소재로 변경할 수 없을까?’, ‘공정 과정을 바꾸지 않고 제품의 강도를 유지하는 다른 소재로 변경할 수 없을까?’와 같은 대체 소재 탐색에 대한 필요성을 느끼곤 한다. 앤시스 그란타 셀렉터(Ansys Granta Selector)는 초기 제품 설계에서 재료 물성 데이터의 시각화를 통해 체계적으로 대체 소재 비교/탐색을 체계적으로 수행할 수 있도록 도와주는 소프트웨어이다. 이번 호에서는 앤시스 그란타 셀렉터의 주요 기능들을 이용하여 최적 재료를 탐색하여 선정하고, 이를 앤시스 워크벤치(Ansys Workbench) 환경에서 수행하여 검증하는 최적 재료 선정 과정을 소개한다.   ■ 최귀진 태성에스엔이 유동 4팀 매니저로, 중공업/플랜트의 구조 해석 및 Ansys Granta 등을 담당하고 있다. 이메일 | kjchoi@tsne.co.kr 홈페이지 | www.tsne.co.kr   앤시스 그란타 셀렉터란 앤시스 그란타 셀렉터는 초기 제품 설계 단계에서 소재를 선택하거나 대안 소재를 손쉽게 검색하기 위한 특화 소프트웨어이다. 앤시스 그란타 셀렉터에서는 <그림 1>과 같이 데이터베이스에 저장된 소재의 물성 데이터를 ‘Ashby Charts’ 라고 불리는 그래프를 통해 시각화하여 직관적인 비교가 가능하다. 동시에 제품 설계에서 요구되는 설계 사양, 공정 조건, 제한 사항 등을 단계별로 적용함으로써 <그림 2>와 같은 최적 소재를 찾기 위한 프로세스로 소재를 검색하도록 지원한다.   그림 1. 앤시스 그란타 셀렉터의 물성 데이터 시각화   그림 2. 앤시스 그란타 셀렉터의 소재 선택 방법론   앤시스 그란타 셀렉터는 폭넓은 데이터베이스를 갖추고 있어 다양한 산업군에서 활용 가능하다. 데이터베이스는 기본적으로 제공되는 Core Data 데이터베이스와 사용 목적에 따라 별도로 구매가 가능한 Metals, Polymers, Composites, Medical 등 번들 형태 데이터베이스가 제공되고 있다. 기본적으로 제공되는 Core Data 데이터베이스에는 소재에 대한 일반적인 특성 데이터와 함께 가격, 탄소 배출량, 관련 법규 등 다양한 데이터를 포함하고 있으며, 해석에 활용 가능한 여러 종류의 비선형 데이터를 제공한다.   그림 3. 앤시스 그란타 셀렉터의 데이터베이스 목록   앤시스 그란타 셀렉터의 주요 기능 앤시스 그란타 셀렉터는 다양한 조건에 부합하는 최적 재료를 탐색하고, 이를 해석에 적용하여 검증하는 최적 재료를 선정하기 위한 일련의 프로세스를 수행할 수 있는 기능을 포함하고 있다.   소재 물성 데이터 시각화(Ashby Chart) 첫번째로 소개할 기능은 소재 물성 데이터의 시각화이다. 앤시스 그란타 셀렉터는 <그림 4>와 같이 데이터베이스의 모든 소재를 대상으로 물성 데이터를 그래프 형태로 시각화한다. <그림 4>는 밀도(Density)와 탄성 계수(Young’s Modulus)를 대상으로 소재 물성 데이터를 시각화하여 나타낸 것이다. 이러한 그래프 형태를 Ashby Chart라고 하며 소재 물성 데이터의 직관적인 비교를 가능하게 한다.   그림 4. 재료 물성 데이터 시각화(Density vs Young's Modulus)     ◼︎ 전체 내용은 PDF로 제공됩니다.
작성일 : 2023-03-03
[포커스] 제조 경쟁력을 위한 디지털 혁신, 클라우드 HPC에서 길을 찾다
제조산업에서도 업무 효율 및 R&D 혁신을 위한 수단으로 클라우드에 대한 관심이 높아지고 있다. 이런 가운데, 효과적인 클라우드 활용 방법을 제시하기 위한 ‘2022 HPC on AWS 온라인 콘퍼런스’가 지난 11월 16일 진행됐다. 캐드앤그래픽스 CNG TV를 통해 진행된 이번 콘퍼런스에서는 설계, 시뮬레이션, 데이터 관리, 협업 등 엔지니어링 영역을 중심으로 클라우드 HPC 관련 기술 동향과 효과적인 활용 방안 등이 폭넓게 소개됐다. ■ 정수진 편집장     클라우드의 목표는 생산성 높이고 혁신을 돕는 것 AWS 코리아의 황민선 ISV 세일즈 매니저는 “클라우드 HPC의 최종 목표는 온프레미스의 한계를 넘어, 시간 낭비 없이 생산성을 높이고 혁신을 지원하는 것”이라고 소개했다. 기존에 많이 쓰이던 온프레미스 HPC는 하드웨어를 확보/교체하거나 유지보수하는 데에 시간과 비용이 들고, 이 과정에서 HPC 작업이 지연되거나 중단되면 생산성이 낮아지거나 혁신의 기회를 놓칠 수 있다. 반면, 클라우드 기반의 HPC 기술은 이런 제약을 없애 기업의 혁신을 가속화할 수 있다는 것이 황민선 매니저의 설명이다. 전체 HPC 워크로드의 20%가 클라우드에서 실행되고 있어 전체 HPC 시장에서 비중은 작지만 향후 성장이 기대된다. 클라우드 HPC 시장 규모는 오는 2026년까지 110억 달러를 넘어설 것으로 보이며, 향후 5년간 17.6% 성장할 전망이다. 또한, HPC 워크로드를 실행 위해 기업이 퍼블릭 클라우드에 투자하는 비용은 올해 23% 이상 증가해 62억 달러를 넘을 것으로 예상되고 있다. 반면 온프레미스 HPC는 앞으로 5년간 6.9% 성장할 것으로 보인다. 황민선 매니저는 “AWS가 제시하는 클라우드 HPC는 무제한의 인프라에 액세스하고, 온디맨드 방식으로 빠르게 확장할 수 있다. 사용한 양만큼 비용을 지불하면서 대규모 투자가 없어도 최신 기술을 즉시 사용 가능한 이점이 있다. 유연한 구성 옵션으로 리소스를 빠르게 선택하고 비용을 최적화할 수 있는 것도 장점”이라고 설명했다.     에지부터 클라우드까지 지원하는 HW·SW 기술 인텔코리아의 이인구 전무는 “기술의 발전과 함께 다양한 기법으로 데이터를 수집, 가공, 분석해 비즈니스 인사이트를 얻고 새로운 비즈니스를 창출하는 흐름이 가속화된다”면서, “에지(edge)의 데이터가 네트워크를 거쳐 스토리지와 서버에 저장되고, 데이터 분석까지 병목 없이 데이터를 심리스하게 처리할 수 있도록 클라우드 아키텍처를 구성하고 소프트웨어 이용해 가속하는 것이 중요하다”고 짚었다. 인텔은 이를 위해 에지에서 생성되는 데이터를 데이터센터로 옮기거나 데이터센터간 빠른 전송을 위한 네트워크, 데이터센터에 더 많은 데이터를 저장하고 빠르게 액세스하기 위한 메모리 및 스토리지, 에지와 데이터센터에서 다양하게 이뤄지는 데이터 분석을 위한 저전력 CPU 및 데이터센터용 CPU, GPU와 AI 가속기 등 폭넓은 제품 포트폴리오를 제공한다. 특히 인텔의 3세대 제온(Xeon) 스케일러블 프로세서는 새롭게 출시된 서버 플랫폼에서 웹 서비스, 인공지능, 검색, 데이터베이스 등 다양한 분야의 성능을 높일 수 있는 것이 특징이다. 또한 보안 솔루션과 증가하는 워크로드를 효과적으로 처리하는 확장성 및 유연성을 제공하는데에 중점을 두었다. 한편, 인텔은 클라우드의 활용도를 높이는 소프트웨어 기술도 제공한다. 여기에는 워크로드의 클라우드 마이그레이션 및 클라우드 리소스를 최적화하는 기술, 데이터의 흐름과 처리 패턴을 실시간 분석해 최적의 실행경로를 탐색하는 워크로드 튜닝 기술, CPU/GPU/FPGA/가속기 등 다양한 아키텍처에서 개발 과정을 단순화하는 개발자 API 등이 있다.     클라우드 HPC의 비용 효율 높이는 CPU/GPU AMD는 데이터센터 시장에서 HPC, 기업용 IT, 클라우드, 인공지능, 가상화&게이밍 분야에 집중하고 있다. AMD 코리아의 김홍필 이사는 “가장 두각을 나타내는 분야는 HPC로, AMD CPU와 GPU 가속기로 구성된 슈퍼컴퓨터가 톱 500 리스트 1위에 오르기도 했다. AMD는 클라우드 분야에서도 다양한 가상화 인스턴스를 출시하는 등 클라우드 HPC에 적합한 솔루션을 제공하고 있다”고 소개했다. AWS에서도 AMD 기반의 다양한 EC2 인스턴스를 제공하고 있는데, 김홍필 이사는 AMD 인스턴스의 강점으로 가격 경쟁력을 꼽았다. 다른 인스턴스에 비해 낮은 가격으로 높은 성능을 제공해 비용 효율을 높일 수 있다는 것이다. 또한, 대부분의 클라우드 인스턴스가 x86 아키텍처로 구동되고 있는데, AMD의 CPU 또한 동일한 아키텍처에 기반하고 있어서, 소프트웨어를 변경하지 않고 AMD 기반 인스턴스로 마이그레이션이 가능하다는 점도 강조했다. 특히 EC2의 HPC6a 인스턴스는 3세대 에픽(EPYC) 프로세서로 구동되는 AWS의 첫 번째 AMD 기반 HPC 인스턴스이다. 최대 96개의 CPU 코어, 3.6Ghz 최대 클럭 속도, 384GB의 메모리를 탑재하고 100Gbps 네트워크를 지원해 HPC에 특화된 성능을 제공한다. 김홍필 이사는 HPC6a 인스턴스에서 CFD 애플리케이션를 테스트한 내용을 소개하면서 “시뮬레이션에서는 노드 증가에 따른 선형적인 성능 향상이 중요한데, HPC6a 인스턴스는 이런 성능을 잘 보여준다. 또한, 많은 인스턴스를 필요로 하는 작업일 수록 비용 절감 효과도 크다”고 전했다.     디지털 스레드로 클라우드 HPC의 활용 최적화 제조산업에서는 시장 경쟁이 심화되고 제품이 복잡해지면서 개발 난이도가 높아지고 있다. 이를 해소하기 위한 디지털 전환에 효과적으로 대응하는 한편, 재택근무가 늘면서 데이터 보안 및 네트워크 보안이 필요하다는 인식은 클라우드 HPC의 도입 증가로 이어지고 있다. 한편, 하드웨어 리소스의 사용량과 시간에 비례해 비용을 지불하게 되는 클라우드 HPC 환경에서는 HPC 리소스의 낭비 문제가 지적된다. 지멘스 디지털 인더스트리 소프트웨어(지멘스 DISW)의 김현준 본부장은 이를 해결하기 위해 전체 해석 프로세스와 데이터의 흐름을 일관되게 관리하는 ‘디지털 스레드 플랫폼’을 제시했다. CAD 플랫폼인 NX, 시뮬레이션 플랫폼인 심센터(Simcenter), 시뮬레이션 프로세스 및 데이터 관리(SPDM) 프로세스를 통해 데이터의 연결성과 일치성 및 소프트웨어 사이의 연계성을 확보한다는 것이 디지털 스레드 플랫폼의 기본 개념이다. 지멘스 DISW의 클라우드 기반 PLM인 팀센터 X(Teamcenter X)는 PLM 시스템과 해석 데이터&프로세스 관리 도구를 제공해, 해석 데이터 및 프로세스 관리를 신속하게 진행할 수 있도록 한다. 또한, 클라우드 플랫폼에서 해석 프로세스 데이터와 툴, 원하는 가상 코어를 적용하고 해석 결과를 확인하는 심센터 클라우드 HPC(Simcenter Cloud HPC)와 연결해 HPC 리소스의 낭비를 막고 해석 데이터의 흐름을 관리할 수 있게 지원한다. 한편, 클라우드 HPC는 공장이나 사물인터넷 빅데이터를 처리하는 데에도 쓰일 수 있다. 김현준 본부장은 “시뮬레이션뿐 아니라 공장 자동화, 공장 데이터, 제품 IoT 데이터 등을 통합해 성능을 높이기 위한 데이터 처리 플랫폼으로 클라우드를 활용할 수 있다”고 전했다.     시뮬레이션의 가치 높이는 클라우드 플랫폼 많은 양의 수학 계산이 필요한 시뮬레이션을 위해서 기존에는 워크스테이션 등 고가의 장비가 쓰였는데, 최근에는 구조, 유동, 전자기, 진동소음, 다물체 동역학 등 다양한 시뮬레이션을 클라우드 기반에서 운영할 수 있게 됐다. 다쏘시스템코리아의 황하나 컨설턴트는 “클라우드는 데이터의 저장과 공유뿐 아니라 효율적이고 유연한 시뮬레이션 환경을 구축할 수 있게 한다”면서, “복잡한 계산은 클라우드가 수행하기 때문에, 일반 PC로도 시뮬레이션 데이터에 손쉽게 접근할 수 있고, 시뮬레이션을 위한 장비를 추가 구매/증설할 필요도 없다”고 설명했다. 한편, 높은 수준의 해석과 함께 조직 내 협업 역시 제품 개발 프로젝트를 성공하기 위한 필수 요소로 꼽힌다. 이를 위해서는 클라우드 플랫폼의 데이터 관리 체계를 통해 복잡한 데이터 간에 연결성을 확보하고, 모델·해석 시나리오·시뮬레이션 결과 등을 통합 관리할 수 있다. 다쏘시스템은 폭넓은 시뮬레이션 솔루션 포트폴리오를 제공하는 시뮬리아(SIMULIA)와 3DX 플랫폼: 역할(role) 기반 구조로 기술-사람-데이터의 연결과 공유를 지원하는 3D익스피리언스 플랫폼(3DEXPERIENCE Platform)을 제공한다. 황하나 컨설턴트는 “3D익스피리언스 플랫폼은 디자인 변경 내용, 해석용 형상, 요소, 시나리오 등을 그대로 유지하면서 추적 관리가 가능하고, CAD 모델과 시뮬레이션용 모델을 따로 제작/관리할 필요도 없다”고 소개했다. 또한 “클라우드를 통해 제품의 성능을 개선할 수 있는 시뮬레이션의 가치를 더욱 키울 수 있다. 나아가 클라우드는 빅데이터와 인공지능 등을 융합하기 위한 선행 기술이기도 하다”고 덧붙였다.     클라우드로 데이터 중심의 협업 구현 과거의 방식으로 구축된 제품 개발 시스템에서는 데이터가 고립된 방식으로 처리되고 보관되고 있다. 이런 환경에서는 필요한 데이터를 찾는 데에 많은 시간이 들고, 협업에도 어려움이 커진다. 오토데스크코리아의 김지훈 차장은 ‘데이터 중심의 프로세스 전환’을 해결책으로 제시했다. 오토데스크는 AWS의 다양한 기능을 활용해 하이브리드 클라우드 기반의 플랫폼 서비스를 구축했는데, 이 서비스는 전체 제품 개발 과정을 간소화하고 데이터 중심으로 협업할 수 있는 프로세스를 제공하는 데에 초점을 두고 있다. 김지훈 차장은 “데이터 중심의 통합 가치사슬을 만들고 공급업체 데이터의 안전한 액세스 및 고객 데이터의 통합을 통해 피드백 순환구조(loop)를 형성해야 제품 혁신을 빠르게 추진할 수 있다”고 설명했다. 오토데스크는 자사의 클라우드 플랫폼 서비스를 제조/건축/미디어 분야에 특화된 솔루션으로 제공하고 있는데, 이 가운데 제조 분야를 위한 플랫폼인 퓨전 360(Fusion 360)은 제품 개발의 시작 단계부터 설계, 데이터 관리, 제조 프로세스, 적층 프로세스 등을 통합된 환경에서 활용할 수 있도록 한다. 김지훈 차장은 “퓨전 360은 F3D 데이터 포맷에서 설계, 해석, 툴패스, 도면 등의 데이터를 하나로 관리할 수 있게 해 전체 제품 개발 프로세스의 연결을 위한 데이터 통합을 지원한다. 그리고 타사의 3D 소프트웨어 솔루션 데이터를 퓨전 360에서 통합해 리얼타임으로 업데이트하고 상호작용할 수 있도록 한다”고 소개했다. 또한, “클라우드 플랫폼은 최신 버전을 실시간 업데이트해 다양한 기능을 즉시 사용하고, 기존 시스템과 플랫폼 시스템을 비즈니스 상황에 맞춰 유연하게 사용할 수 있어야 한다. 또한 설계, 해석, 렌더링에 제한 없이 액세스하고 비즈니스 확대 및 협업을 통한 제조 생태계를 제공해야 한다”고 전했다.     클라우드 시뮬레이션 활용을 더욱 쉽고 빠르게 앤시스 코리아의 최장훈 부장은 “기존에 클라우드에서 시뮬레이션 소프트웨어를 사용하려면 IT 및 클라우드에 대한 전문 지식이 필요했다. 앤시스와 AWS는 지난 10월에는 ‘앤시스 게이트웨이(Ansys Gateway)’를 출시해, 몇 번의 클릭으로 AWS 환경에서 앤시스의 소프트웨어로 쉽고 빠르게 시뮬레이션을 할 수 있도록 돕는다”고 소개했다. 앤시스 게이트웨이는 클라우드에서 VDI(가상 데스크톱 인프라) 및 HPC 기반으로 앤시스의 다양한 애플리케이션을 쉽게 구축할 수 있게 한다. 기존에 가진 앤시스 라이선스와 AWS 계정·크레딧을 사용할 수 있으며, 가상머신(VM)의 생성이나 CPU/메모리/디스크 용량의 변경 등을 손쉽게 할 수 있다. 클라우드상의 가상머신과 HPC 자원의 비용 및 사용량을 관리하는 기능을 제공하며, 데이터 공유 및 협업도 지원한다. 또한 앤시스뿐 아니라 다른 회사의 CAE 및 CAD 소프트웨어도 사용할 수 있게 했다. 최장훈 부장은 “웹 브라우저 기반에서 사용할 수 있도록 앤시스 게이트웨이를 제공해, 클라우드에 대한 기반 지식과 기술이 없어도 사용할 수 있도록 했다. 중요한 목적은 클라우드 시뮬레이션에서 고객이 겪는 하드웨어 관련 장벽을 제거하는 것”이라고 전했다. 현재 앤시스 게이트웨이는 앤시스의 주요 제품을 몇 번의 클릭으로 사용 가능. 플래그십 솔버를 비롯해 워크벤치(Workbench), 모션(Ansys Motion), 셜록(Sherlock), LS-다이나(LS-DYNA), CFX, 아이스팩(Icepak), 맥스웰(Maxwell), SCADE, 스페오스(Speos), 광학해석 툴의 자동 설치를 지원한다.     하이브리드 클라우드를 위한 스케줄링 및 관리 한국알테어의 박진구 책임은 기업이 자체 구축된 온프레미스 서버와 클라우드 가상머신/서버를 함께 구성하는 하이브리드 클라우드 아키텍처에 대해 소개했다. 온프레미스 HPC의 경우 업무량에 따라 시스템의 용량이 부족하거나 남는 경우가 생긴다. 물리적인 서버를 늘리려면 증설 요청부터 주문-배달-설치-운영까지 적지 않은 시간이 걸리는데, 클라우드는 주문부터 운영까지 걸리는 시간이 짧기 때문에 빠르게 대응할 수 있다는 것이다. 또한 사용하려는 소프트웨어에 맞춰 다양한 운영체제, CPU, GPU를 선택할 수 있는 것도 클라우드의 이점 중 하나이다. 알테어는 퍼블릭+온프레미스 또는 퍼블릭+프라이빗을 함께 사용하는 하이브리드 클라우드를 위해 HPC 스케줄러인 PBS와 클라우드 연동을 위한 클라우드 버스팅(cloud bursting) 시스템을 제공한다. 박진구 책임은 알테어가 제시하는 하이브리드 클라우드 구성을 소개하면서 “PBS 스케줄러를 사용해 시뮬레이션 등 사용자의 작업을 위한 클라우드 리소스를 요청하고, VPN을 통해 클라우드와 보안 연결이 가능하다. 온프레미스의 시뮬레이션 솔버 라이선스를 클라우드에서 사용하도록 구성할 수 있다”고 설명했다. 이렇게 구성된 하이브리드 클라우드 환경에서 사용자는 PC에서 클라우드로 작업 파일을 전송하고, 클라우드로 전송된 작업은 퍼블릭 클라우드에서 시뮬레이션을 진행하게 된다. 시뮬레이션 결과는 VPN 보안을 통해 온프레미스 시스템으로 전송되어 사용자는 PC에서 결과를 확인할 수 있다.     엔지니어링 R&D 위한 클라우드 HPC 및 VDI ISBC의 김완희 대표는 최적의 R&D 환경을 지원하는 유연한 클라우드 HPC를 소개했다. 클라우드 HPC에 대해서는 비용 효율과 다양한 컴퓨팅 인스턴스 등의 이점이 알려져 있는데, 김완희 대표는 “ISBC는 HPC 환경에 필요한 통합 R&D 포털을 제공하며, 엔지니어링 VDI를 통해 다양한 전처리 작업 환경을 지원한다. 또한 HPC 서비스와 연동해 해석 솔빙(solving)을 진행할 수 있는  원스톱 VDI+HPC 서비스도 제공한다”고 소개했다. ISBC의 엔지니어링 VDI는 AWS의 그래픽 중심 인스턴스를 사용하며 엔지니어링, 영화/콘텐츠 등 그래픽 작업을 위해 고성능 GPU를 원격에서 활용할 수 있는 환경을 지원하는 것이 특징이다. 한편, 백엔드에서는 HPC 환경에서 다양한 소프트웨어를 함께 사용할 수 있도록 지원한다. 제조기업에서는 다양한 소프트웨어를 함께 사용하는 경우가 많고 머신러닝을 활용하기도 하는데, 김완희 대표는 “이를 위해 유연한 HPC 활용을 지원하는 것이 핵심이다. ISBC는 여러 ISV(독립 소프트웨어 공급사)와 협력하고 있으며 HPC 컨설팅 노하우 및 다수의 레퍼런스를 갖추고 있다”이라고 설명했다.       ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2022-12-01
로크웰 오토메이션, 설계 최적화를 마이크로 컨트롤러 및 설계 소프트웨어 출시
로크웰 오토메이션이 자사의 최신 커넥티드 컴포넌트 워크벤치(Connected Components Workbench) 소프트웨어를 사용하는 Allen-Bradley Micro850 및 Micro870 2080-Lx0E 컨트롤러를 새롭게 출시했다. 이번 출시로 장비 제조업체가 더욱 효율적으로 독립형 장비를 설계하고 프로그래밍할 수 있게 되었다는 것이 로크웰 오토메이션의 설명이다.   ▲ Allen-Bradley Micro850 및 Micro870 2080-Lx0E 컨트롤러   새로운 컨트롤러는 정확한 데이터 보고를 위해 원격감시제어시스템(Supervisory Control and Data Acquisition : SCADA) 및 원격 모니터링 시스템에 사용되는 개방형 표준 통신 프로토콜인 새로운 DNP3 프로토콜을 통해 프로젝트 구현을 용이하게 한다. 또한, 양방향 동시 및 교대 통신인 확장된 DF1을 지원해 전체 및 반(half) 이중화 모드와 무선 모뎀 모드를 통해 CIP 시리얼 통신을 향상시킨다. 이러한 연결성은 특히 용수 및 폐수 산업에서 더 많은 애플리케이션 요구사항을 충족시킨다. 확장된 프로토콜 지원은 MicroLogix에서 Micro800으로 컨트롤 시스템을 업그레이드할 때 전환 위험을 최소화한다. 사용자는 향상된 컨트롤러 실행 및 I/O 응답 성능으로 생산성을 높여 설계 프로세스를 가속화하고 프로젝트 개발 시간을 줄일 수 있다.   ▲ 커넥티드 컴포넌트 워크벤치(CCW) 소프트웨어 v20.01   커넥티드 컴포넌트 워크벤치 소프트웨어 버전 20.01의 새롭고 향상된 기능은 설계 효율성 높이는 데 도움이 된다. 이 소프트웨어를 사용하면 로크웰 오토메이션의 마이크로 컨트롤 시스템으로 구축된 독립형 장비 개발을 간소화할 수 있다. 또한, 사용자는 업로드 및 다운로드 성능이 각각 23% 및 40% 향상된 빠른 데이터 전송 속도 덕분에 개발 시간을 절약할 수 있다. 이 최신 버전의 소프트웨어는 반 이중화 모드와 무선 모뎀 모드를 포함한 확장된 DNP3 및 DF1 지원을 통해 구성을 용이하게 하고 더 많은 용수 및 폐수 애플리케이션 요구사항을 충족하도록 도와준다. 뿐만 아니라, 플러그인 메모리 모듈에서 새로운 암호 설정 및 확인과 사용자 프로젝트 암호화 및 복호화가 가능해 시스템 보안을 강화할 수 있다. 커넥티드 컴포넌트 워크벤치 소프트웨어 버전 20.01은 Micro850 및 Micro870 2080-Lx0E 컨트롤러에 최소한으로 필요한 버전이다. 사용자는 소프트웨어와 새로운 컨트롤러 사이 향상된 암호화 및 DNP3 통신의 보안 인증 버전 5(Sav5)를 통한 향상된 프로토콜 인증으로 더욱 안전한 프로그래밍 환경을 누릴 수 있게 됐다.
작성일 : 2022-06-13
Ansys Polyflow의 점성 모델링 방법 소개
앤시스 워크벤치를 활용한 해석 성공 사례   Ansys Polyflow(앤시스 폴리플로)는 점성 또는 점탄성 물성을 갖는 물질의 압출 또는 중공 성형공정을 해석할 수 있는 소프트웨어이다. 이번 호에서는 앤시스 폴리플로를 활용한 점성 모델링 방법을 소개한다. ■ 정우영 태성에스엔이 대전 지사의 FBU팀에서 유동 및 유변학 분야의 기술 지원 및 교육, 프로젝트 진행 업무를 담당하고 있다. 이메일 | wyjung@tsne.co.kr 홈페이지 | www.tsne.co.kr    폴리플로는 점성 또는 점탄성 물성을 갖는 물질의 압출 또는 중공 성형공정을 해석할 수 있는 제품이다. 폴리플로에서 점도를 표현하는 범위는 뉴턴 비탄성(Newtonian Inelastic) 물성부터 비뉴턴 점탄성(Non-Newtonian Viscoelastic) 물성까지이다. 상수 또는 선형 수식으로 표현되는 뉴턴 비탄성 물질을 제외한 물성의 경우 실험 데이터를 통해 비선형 점도 또는 점탄성 모델링이 가능하다. Ansys Polymat(앤시스 폴리맷)의 Curve Fitting 기능을 이용하면 실험을 통해 측정된 점도 자료를 바탕으로 폴리플로에서 제공하고 있는 여러 점도 수식에 필요한 계수 값들을 추출할 수 있다. 이번 호에서는 간단한 예제를 통해 폴리맷을 활용한 점성 모델링 방법에 대해 알아보자.   앤시스 폴리맷 사용 개요 폴리맷에서 점성 모델링 작업을 하기 위해서는 3가지 선행 작업이 필요하다. 첫 번째, 해석에 사용되는 고분자의 탄성 유무를 파악해야 한다. 탄성 유무에 따라 사용되는 모델과 필요한 실험 데이터가 다르기 때문이다. 두 번째, 해석해야 하는 공정에 대해 인지하고, 그에 맞는 점탄성 모델을 선택해야 한다. 압출 공정을 해석하는 경우 점탄성 물성을 적용하기 위해 Differential Viscoelastic Model을 사용해야 하며, 중공 성형공정을 해석하기 위해서는 Integral Viscoelastic Model을 사용하는 것을 추천한다. 마지막으로 앞의 두 작업이 완료되면 점도 모델을 설정해야 한다. 모델이 설정되어야 해당 모델에 맞는 수식으로의 Curve Fitting 작업이 가능하기 때문이다.  그럼 지금부터 예제를 통한 점도 모델 설정 및 Polymat의 Curve Fitting 방법에 대해 알아보도록 하자.   앤시스 폴리맷 점성 모델링 방법 폴리맷은 2가지 방법으로 실행할 수 있다. 첫 번째는 폴리플로 설치 경로에서 Polymat.exe 파일을 실행하는 방법이며, 두 번째는 앤시스 워크벤치(Ansys Workbench)를 통해 폴리플로를 실행하는 방법이다. 이번 호에서는 폴리플로를 이용한 폴리맷 설정 방법에 대해 알아본다. 폴리맷을 사용하기 위해 먼저 폴리플로를 실행하여 점도 모델을 설정해야 한다.  (1) 1단계 : 폴리플로 실행 및 태스크 생성 폴리플로는 앤시스 워크플로 상에서 생성된 격자 파일을 사용하여 실행이 가능하다. <그림 1>과 같이 워크벤치 상에서 격자 파일을 입력한 후 폴리플로를 실행한다.   그림 1. 앤시스 워크플로를 통한 폴리플로 실행  
작성일 : 2022-04-04